[Linux]01 大数据常用命令 一

基本操作命令

Posted by 李玉坤 on 2018-02-15

[hadoop@hadoop ~]$

1
2
[hadoop@hadoop ~]$ 
含义:登录的用户@机器名称 家目录

查看当前光标所在的目录 pwd

1
2
3
[hadoop@hadoop ~]$ pwd
/home/hadoop
[hadoop@hadoop ~]$

切换目录 cd

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
[hadoop@hadoop ~]$ cd /home
[hadoop@hadoop home]$ pwd
/home
[hadoop@hadoop home]$

注意:
root用户 家目录是 /root 规定
xxx用户 家目录是 /home/xxx 默认

#回退家目录 两种方法
[hadoop@hadoop ~]$ cd /home/hadoop

[hadoop@hadoop ~]$ cd ~

#回退到上一次的目录
[hadoop@hadoop ~]$ cd -

#回退到父层的目录(回退一层)
[hadoop@hadoop ~]$ cd ..

#表示回退爷爷层的目录(回退两层)
[hadoop@hadoop ~]$ cd ../../

目录 文件夹 路径

1
2
3
4
5
6
7
8
9
假设当前目录为
[hadoop@hadoop ~]$ pwd
/home/hadoop

绝对路径 /根目录 以根目录为基础
某文件位置可表示为: /home/hadoop/XXX.txt
相对路径 不以根目录为开始,
以当前光标所在的目录为开始
某文件位置可表示为: XXX.txt

clear 清空屏幕

ls查看当前光标所在的目录 文件有哪些

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
[hadoop@hadoop ~]$ ls
app data derby.log metastore_db nohup.out readMe.txt software source test zookeeper.out

[hadoop@hadoop ~]$ ls -l
总用量 60
drwxrwxr-x. 29 hadoop hadoop 4096 1111 14:20 app
drwxrwxr-x. 5 hadoop hadoop 4096 67 14:52 data
-rw-rw-r--. 1 hadoop hadoop 700 68 17:28 derby.log
drwxrwxr-x. 5 hadoop hadoop 133 68 17:28 metastore_db
-rw-------. 1 hadoop hadoop 24321 916 11:40 nohup.out
-rw-rw-r--. 1 hadoop hadoop 815 519 2019 readMe.txt
drwxrwxr-x. 4 hadoop hadoop 4096 1111 14:19 software
drwxrwxr-x. 3 hadoop hadoop 25 1021 10:59 source
drwxrwxr-x. 2 hadoop hadoop 226 1113 14:28 test
-rw-rw-r--. 1 hadoop hadoop 13969 64 18:30 zookeeper.out
[hadoop@hadoop ~]$

ls -l ==> 等价于ll

#ls -l -a 查看当前的文件文件夹以及隐藏文件文件夹【以.开头】
[hadoop@hadoop ~]$ ls -l -a
总用量 108
drwx------. 16 hadoop hadoop 4096 1111 14:28 .
drwxr-xr-x. 3 root root 20 414 2019 ..
drwxrwxr-x. 29 hadoop hadoop 4096 1111 14:20 app
-rw-------. 1 hadoop hadoop 17918 1119 10:45 .bash_history
-rw-r--r--. 1 hadoop hadoop 18 411 2018 .bash_logout
-rw-r--r--. 1 hadoop hadoop 1493 916 14:03 .bash_profile
-rw-r--r--. 1 hadoop hadoop 231 411 2018 .bashrc
drwxrwxr-x. 4 hadoop hadoop 29 414 2019 .cache
drwxrwxr-x. 4 hadoop hadoop 37 514 2019 .config
drwxrwxr-x. 5 hadoop hadoop 4096 67 14:52 data
-rw-rw-r--. 1 hadoop hadoop 700 68 17:28 derby.log
drwxrwxr-x. 7 hadoop hadoop 92 514 2019 .gradle
drwxrwxr-x. 3 hadoop hadoop 19 1111 14:28 .java
drwxrwxr-x. 3 hadoop hadoop 53 1021 14:26 .m2
drwxrwxr-x. 5 hadoop hadoop 133 68 17:28 metastore_db
-rw-------. 1 hadoop hadoop 24321 916 11:40 nohup.out
drwxrwxr-x. 6 hadoop hadoop 99 520 2019 .npm
-rw-rw-r--. 1 hadoop hadoop 815 519 2019 readMe.txt
-rw-rw-r--. 1 hadoop hadoop 1204 514 2019 .scala_history
drwxrwxr-x. 4 hadoop hadoop 4096 1111 14:19 software
drwxrwxr-x. 3 hadoop hadoop 25 1021 10:59 source
drwxrwxr-x. 6 hadoop hadoop 158 68 17:27 .sparkStaging
drwx------. 2 hadoop hadoop 80 527 09:48 .ssh
drwxrwxr-x. 2 hadoop hadoop 226 1113 14:28 test
-rw-------. 1 hadoop hadoop 6277 1021 10:35 .viminfo
-rw-rw-r--. 1 hadoop hadoop 13969 64 18:30 zookeeper.out

#ll -h 文件的大小
[hado
op@hadoop ~]$ ll -h
总用量 60K
drwxrwxr-x. 29 hadoop hadoop 4.0K 1111 14:20 app
drwxrwxr-x. 5 hadoop hadoop 4.0K 67 14:52 data
-rw-rw-r--. 1 hadoop hadoop 700 68 17:28 derby.log
drwxrwxr-x. 5 hadoop hadoop 133 68 17:28 metastore_db
-rw-------. 1 hadoop hadoop 24K 916 11:40 nohup.out
-rw-rw-r--. 1 hadoop hadoop 815 519 2019 readMe.txt
drwxrwxr-x. 4 hadoop hadoop 4.0K 1111 14:19 software
drwxrwxr-x. 3 hadoop hadoop 25 1021 10:59 source
drwxrwxr-x. 2 hadoop hadoop 226 1113 14:28 test
-rw-rw-r--. 1 hadoop hadoop 14K 64 18:30 zookeeper.out


#ll -rt 按时间排序
[hadoop@hadoop ~]$ ll -rt
总用量 60
-rw-rw-r--. 1 hadoop hadoop 815 519 2019 readMe.txt
-rw-rw-r--. 1 hadoop hadoop 13969 64 18:30 zookeeper.out
drwxrwxr-x. 5 hadoop hadoop 4096 67 14:52 data
drwxrwxr-x. 5 hadoop hadoop 133 68 17:28 metastore_db
-rw-rw-r--. 1 hadoop hadoop 700 68 17:28 derby.log
-rw-------. 1 hadoop hadoop 24321 916 11:40 nohup.out
drwxrwxr-x. 3 hadoop hadoop 25 1021 10:59 source
drwxrwxr-x. 4 hadoop hadoop 4096 1111 14:19 software
drwxrwxr-x. 29 hadoop hadoop 4096 1111 14:20 app
drwxrwxr-x. 2 hadoop hadoop 226 1113 14:28 test


ls
ls -l
ls -a
ls -l -a ==>等价于 ls -la

如何查询命令帮助

1
2
3
4
5
6
7
8
9
[hadoop@hadoop ~]# man ls  #详细查看命令功能
[hadoop@hadoop ~]# ls --help #常用查看命令功能
Usage: ls [OPTION]... [FILE]...
ls 可选参数
List information about the FILEs (the current directory by default).
Sort entries alphabetically if none of -cftuvSUX nor --sort is specified.

Mandatory arguments to long options are mandatory for short options too.
-a, --all do not ignore entries starting with .

mkdir 创建文件夹

1
2
3
4
5
用法:mkdir [选项]... 目录...

mkdir a 当前路径下创建目录

mkdir -p /a/b/XXX 递归创建目录

mv移动 始终只有1份 cp拷贝 原文件不动,新增一份

1
2
3
4
5
6
7
mv XXX.txt 1 #修改名称
mv XXX.txt 1/XXX.txt #移动
mv XXX.txt 1/XXX20191118.txt #移动+修改名称

cp XXX.txt 1 #复制文件命名为1
cp XXX.txt 1/XXX.txt #复制文件到其他目录下
cp XXX.txt 1/XXX20191118.txt #复制+修改名称

如何创建一个空文件 或者把一个文件设置为空

1
2
3
4
5
6
7
[hadoop@hadoop ~]$ touch test.log 创建一个名为test.log的空文件
-rw-rw-r--. 1 hadoop hadoop 0 1120 15:29 test.log

[hadoop@hadoop ~]$ echo "" > rz.log1 慎用 假如写错文件名,会把已经存在的文件设置为空,而且不是空文件这个文件会有1个字节的大小
-rw-rw-r--. 1 hadoop hadoop 1 1120 15:29 test.log1

[hadoop@hadoop ~]$ cat /dev/null > XXX.log 把一个文件设置为空